AI 시대의 지식 노동
- 2025-03-25 (modified: 2025-07-22)
- 저자: AK
AI 시대의 지식 노동
AI-인간 협업의 병목 줄이기 + 불확실성에 대응하기
2025-03-25 (갱신: 2025-07-22)
0. 발표자
포털, 게임 회사, UX 에이전시 등에서 개발자, 연구원, 데이터 엔지니어, 기획자 등으로 근무
현재 이런저런 회사에서 AI가 가미된 서비스를 기획/개발하고 있음
1. 들어가기 전에
문제점: AI 시대에 오래 살아본 사람 없음
- word2vec (2013년) ← 신기한 느낌이었음. 하지만 아직 AI 시대라고 하기엔…
- Attention is all you need (2017년) ← 여기에서 미래를 본 사람? (저는 아닙니다)
- TabNine (2018년) ← 이거 써보신 분? (저는 아닙니다)
- GitHub Copilot (2021년) ← 힙스터 개발자라면 여기쯤? (제가 바로 그 힙스터 😎)
- ChatGPT (2022년) ← 보통은 여기?
❌ “AI 시대, 이렇게 살면 됩니다.”
✅ “이런거 고민해보고 저런거 실행해봤더니 저는 어땠어요.”
“진실을 정확히 안다고 말하는 자는 잘 모르는 사람이라고 보면 된다.” —1928년, 버트랜드 러셀
주제
고민하고 시도해본 경험과 생각 공유
소소한 습관, 교훈, 팁, 태도에 대한 주관적 의견
건강한 수준의 경각심 + 구체적 실행 계획을 세워보고 싶은 마음이 들게 만들면 성공
문제: 발전이 너무 빠름 (최근 3년)
(참고: LLMflation)
문제: 발전이 너무 빠름 (최근 7일)
2025년 7월 14일: Moonshot에서 Kimi K2 공개(1000B-A32B). 상당수 벤치마크에서 Opus 4 (non-thinking) 능가
2025년 7월 21일: Qwen3-235B-A22B-2507 공개. Kimi K2의 1/4 크기(Activation 기준 1/3)인데 거의 모든 벤치마크에서 더 우수
235B?
- 235B 16FP: 램 512GB 필요 (맥 스튜디오 기준 약 2,000만원)
- 235B 4bit quantize: 램 128GB 필요 (맥 스튜디오 기준 약 500만원)
“유료 구독자에게는 요약본을 드려요.” —Simon Willison, Pay me to send you less
문제: 예측이 어렵다
학계: LLM만으로는 한계가 있다 (7월 1일, Thinking Beyond Tokens)
OpenAI: 되는데요? (7월 20일, Gold medal-level performance on IMO)
Gary Marcus: 인상적이지만 비공식이잖아? (같은 날, 트위터에 남긴 글)
구글: 우린 공식😎 (다음날, Advanced Gemini officially achieves gold-medal)
전문가는 뭐라고 하나?
이럴 땐 전문가 의견을 들어봐야… (주의: 전문가 의견에 기반한 논증)
- “현재의 AI는 멍청해서 위험할 수 없다. 잘 쓰면 유익하다.” —Yann LeCun (Meta)
- “현재의 AI는 이미 너무 똑똑하고 위험하다.” —Geoffrey Hinton
- “AI는 멍청한 확률적 앵무새. 하지만 차별적이라 위험하다.” —Emily M. Bender
- “AI가 아니라 AI를 이용하는 기업의 탐욕이 위험하다.” –-Tristan Harris (Y. LeCun 들으라고 하는 말)
- “촘스키 언어학 관점에서 아무 의미도 없다.” —Noam Chomsky (촘스키 언어학 창시자)
- “기호주의를 섞기 전엔 멍청하다” —Gary Marcus (촘스키 제자의 제자)
- “양자 컴퓨터? 20년은 걸림(1월). 아차 잘못 말했음(3월).” —젠슨 황 (Willow 발표 후 vs. 퀀텀연구소 발표 후)
거의 종교화되기도. 예: 실리콘밸리의 e/acc 진영, 장기주의 등
다른 분야는 어떤가
IT보다 AI를 선도적으로 쓰는 분야가 많지 않음. 여기가 거의 최전방. 예외? 전쟁:
- OODA loop: Observe-Orient-Decide-Act. HITL → HOTL → ?
- 핵전쟁 상호확증파괴(MAD) vs. AI 상호확증통제상실(MALoC) (참고: Paul Scharre, Army of None)
전쟁에서의 특이점: HOTL 상황에서 AI의 OODA 속도가 인간의 이해 속도를 넘어서는 시점에 인간은 통제력을 사실상 상실
일반화된 특이점 개념보다 분야별로 특화된 형태의 특이점 개념을 생각해보면 유익. 또다른 사례:
“레이 커즈와일이 말하는 특이점은 컴퓨터가 인간의 강점을 뛰어넘는 시점을 말합니다. 그 시기는 아직 오지 않았으나, 컴퓨터가 인간의 약점을 뛰어넘는 시점은 이미 도래했습니다.” —Tristan Harris, Social Dilemma
나는 어떤 상황?
“OpenAI 플러스 요금제 사용자도 월 15회 딥 리서치를 쓸 수 있게 됐다. 꽉꽉 채워서 다 써야지.” —2025년 3월 14일 일기 중
현실: 나는 궁금한 게 생각보다 없었고 그나마 만들어진 보고서도 다 읽지 못한다.
- “누구나 그럴듯한 계획이 있다. 처맞기 전까지는”
- “딥 리서치 조지고 올게” / “하지만 언제나 조져지는 건 나였다”
중간 요약
변화가 너무 빠르고 예측이 어려운데 전문가 의견도 다 다르고 이해관계가 얽혀 있음 → 불확실성에 대응하기
앞선 분야에서는 인간이 병목임이 확연하게 드러나며 우리도 어렴풋이 체감 중 → 인간 병목 줄이기
불확실한 와중에 상대적으로 확실한 건 인간 병목 문제가 점차 심각해진다는 점
언젠가는(?) AI와 로봇이 노동을 다 하고 분배 정의가 실현되어 인간은 보편기본소득을 받고 소외된 노동에서 완전히 해방되겠지만 당분간은(?) 적응하며 살아야 함
“당분간”이 1년일지 5년일지 10년일지 모름
2. 인간 병목
AI-인간 협업이 발달한 분야에서는 인간이 이미 병목 자원이며 이 현상은 당분간 가속될 것 (확신할 수 있는 몇 안되는 예측 중 하나)
전체 프로세스의 성능(throughput)은 병목에 의해 제한됨 (큐잉 이론)
인간 병목 분석해보기
“What you write down doesn’t mean exactly what you think it means. And when it does, it doesn’t have the consequences you expected.” —Daniel Jackson, Software Abstractions
AI-인간 협업 루프: (proactive and/or ambient agents 제외)
- 인간이 게으름을 극복
- 인간이 의도를 구체화
- 인간이 의도를 AI에게 전달
- AI가 응답을 생성 ← 환각 주의 😇
- AI가 응답을 인간에게 전달
- 인간이 AI의 응답을 이해
- GOTO 1
과제: 인간의 역량 높이기 + 소통 채널 개선하기
습관: 생각을 미리 꺼내놓기
지연(latency)을 줄이는 방법 중 하나는 미리 가져오기(pre-loading)
생각을 AI에게 전달하느라 지연이 생기면? 생각을 미리 꺼내놓는다 (참고: 위키 가드닝 규칙)
캐시와의 차이:
- 캐시: hit-ratio가 낮으면 낭비
- 생각 꺼내놓기: hit-ratio가 낮더라도 생각을 지속적으로 관리하는 행위 자체가 이로움
암묵지도 꺼내보기 (참고: Knowledge elicitation)
습관: 자동화
중복(duplication; 의미없는 반복)을 제거하기 (참고: Hammerspoon LLM script)
습관: 수동화
여분(redundancy; 의미있는 반복)을 도입하기 (참고: 과정에 담긴 가치)
습관: 역량 제곱
AI를 활용해서 역량을 높이기 → AI를 활용해서 “AI를 활용해서 역량을 높이는 일”을 더 잘하기
예:
- 위키의 품질을 정량 평가하는 도구를 바이브 코딩으로 만들기 (외톨이 문서 → 격리된 섬 → 평균 최단 경로)
- Hammerspoon LLM script를 바이브 코딩으로 만들기
- 에이전트 기반 코딩을 돕는 도구를 바이브 코딩으로 만들기
습관: 사고를 가다듬기
형식 언어랑 친해지기(참고: 자연어로 작성된 명세서의 한계)
- 의도를 명확히 표현할 수 있음
- LLM의 출력을 검증할 수 있음
- 사고를 더 명확하게 할 수 있음
딜레마: AI를 쓰면 역량이 줄어든다?
AI랑 협업을 잘 하려면 역량을 높여야 하는데, AI랑 협업을 하면 역량이 낮아진다고?
- 생성 AI를 써서 공부한 그룹이 시험을 더 잘봤지만 이후에 AI를 못쓰게 했더니 애초에 안썼던 그룹보다 오히려 성적이 낮아짐 (Generative AI can harm learning)
- LLM을 이용해서 에세이를 쓴 집단이 뇌가 가장 덜 활성화됨 (Your Brain on ChatGPT)
의문1. 바보상자란 대체 무엇인가 🤔
“문자를 습득한 사람들은 기억력을 사용하지 않게 되어 오히려 더 많이 잊게 될 것입니다.” —문자를 발명한 테우스에게 이집트의 왕 타무스가 한 말(이라고 소크라테스가 한 말(이라고 플라톤이 파이드로스에 글로 남김))
“A balanced approach is advisable, one that might leverage AI for routine assistance but still challenges individuals to perform core cognitive operations themselves.” —Your Brain on ChatGPT
“Is it safe to say that LLMs are, in essence, making us dumber? No!” —Your Brain on ChatGPT의 저자가 작성한 FAQ 중
심지어 플라톤도 글쓰기 전체를 비판하지는 않았다. 참고: 글에 대한 플라톤의 비판
의문2. 모든 역량이 소중한가? 🤔
“공학 계산기를 써서 공부한 그룹이 시험을 더 잘봤지만 이후에 공학 계산기를 못쓰게 했더니 애초에 안썼던 그룹보다 오히려 성적이 낮아짐” (이게 정말 놀랄 일인가?)
이런 역량이 예전만큼 중요할까?
- 문법 강조 없이 맨눈으로 괄호 짝 맞추기
- 자동완성 없이 API를 외워서 입력하기
- 파워포인트 슬라이드 잘 만들기
지금은 중요하지만 앞으로는 덜 중요해질 역량 또는 그 반대가 무엇인지 고민해보기
딜레마: 활용보다 탐험
탐험-활용 딜레마 상황. 좋은 MAB 알고리즘은 다음 상황에서 “탐험” 빈도를 높임:
- 시도 횟수가 많이 남은 경우
- 불확실성이 큰 경우 (아직 탐험을 충분히 해보지 않아서, 또는 상황이 빠르게 바뀌어서)
하지만 인간은?
- 경로의존성: 머리를 계속 써야 40대 즈음 시작되는 인지 저하를 막거나 늦출 수 있음 (탐색을 안할수록 탐색을 더 못하게 됨)
- 성실성 증가: 나이가 들면 성실성(Big-5 conscientiousness)이 높아지는 경향 (탐험 감소)
- 기대 수명 증가: 기대 수명의 꾸준한 증가. 관리를 잘하면 건강 수명도 증가 (어쩌면 140살도 가능?)
활용보다 탐험에 힘을 줘보자. 특히 요즘과 같이 불확실성이 높으면 더더욱 탐험이 중요.
3. 불확실성에 대응하기
애자일 방법론의 기본 접근 방법: “예측이 어려우면 기민하게 대응하자”
소프트웨어가 아니라 사람 자체가 기민해진다는 것은?
자연석 기법
써볼만한 도구나 실천법을 발견하면 당장 필요 없더라도 일단 기록해놓고 기회가 생기면 써보기 (The fieldstone method of writing에서 차용)
“Optionality: The right, but not the obligation, to take action.” —Optionality: How to Survive and Thrive in a Volatile World
편향된 팔랑귀: 안된다는 말보다 된다는 말에 더 편향되기
어차피 불확실하다면 안될거라고 생각하고 안하기 보다는 될거라고 믿고 해보기
“경험 많은 자가 무엇이 가능하다고 말하면 거의 옳다. 그러나 그가 무엇이 불가능하다고 말하면 아마도 틀릴 것이다” —Arthur C. Clarke
이 격언은 두 방향에서 이롭다.
- 누군가가 내게 그런 말을 해도 영향을 덜 받기 위해
- 내가 누군가에게 경솔하게 그런 말을 하지 않기 위해
정보 채널 관리하기
시스템 동역학 관점에서 위키가 Stock이라면 정보 채널은 Flow
알아야 해서 알고 있는 채널 유지하기: Feedly, 트위터, GitHub 릴리즈 노트, 뉴스레터, 레딧, 해커뉴스, 팟캐스트, 유튜브 등
알아야 하는데 모르고 있던 채널 발견하기: Google Alerts, Google Scholar Alerts, 우연히 발견한 글이 흥미로우면 그런 글을 더 자주 발견할 방법 찾기(팔로우, RSS 등록 등)
몰라도 되는데 흘러 들어오는 정보 줄이기: (아직 잘 못하는 중. 정규식, 무료 LLM 등 활용하여 잡음비가 높은 RSS 피드에 필터 걸기?)
스스로를 의심하기
중요한 신호가 아무리 들려와도 수용할 준비가 되어 있지 않으면 소용이 없음
나는 내 생각을 뒤집을 준비가 됐나? (XP의 모토는 “변화를 수용하라 Embrace change”)
의견 형성을 늦추기 (Lean software development에서 말하는 Decide as late as possible과 유사)
특히 나이를 먹을수록, 아는 게 많을수록, 사회적 지위가 높을수록 중요
스스로를 의심하지 않기
나 대신 날 의심해주는 사람들(😇)이 많은 상황에 놓여 있다면 스스로를 의심하지 않기
예: 프론트엔드 개발자나 디자이너라면 성급한 UI 디자인 종말론 같은 얘기에 휘둘리지 말기
(단 자신의 사회적 위치를 꾸준히 재평가하기)
지식 갱신하기
낡은 지식 갱신하기 (일종의 리팩토링)
- 익숙한 방식이 있더라도 더 나은 방식이 있는지 검색해거나 LLM과 대화해보기
- 예전에 공부한 내용에 대한 최신 동향을 Deep research 통해 알아보기
- 아침에 눈뜨면 Deep research 하나 돌려놓고 샤워하기
지식의 유통기한 또는 감가상각 따져보기
특히 나이를 먹을수록, 아는 게 많을수록, 사회적 지위가 높을수록 중요
끝
감사합니다